Vad är det enklaste sättet att omvandla tensors form (batch_size, höjd, bredd) fyllda med n-värden till tensors form (batch_size, n, höjd, bredd)? Jag skapade en lösning nedan men ser ut som om det finns enklare och snabbare sätt att göra detta def batch_tensor_to_onehot (tnsr, klasser): tnsr = tnsr.unsqueeze (1) res = [] för cls inom intervallet (klasser): res.append ((tnsr == cls) .long ()) return torch.cat (res, dim = 1)
2021-02-20 08:19:32
Du kan använda torch.nn.functional.one_hot. För ditt fall: a = fackla.nn.functional.one_hot (tnsr, num_classes = klasser) out = a.permute (0, 3, 1, 2) | Du kan också använda Tensor.scatter_ som undviker .permute men är utan tvekan svårare att förstå än den enkla metoden som föreslås av @Alpha. def batch_tensor_to_onehot (tnsr, klasser): resultat = fackla.zeros (tnsr.shape [0], klasser, * tnsr.shape [1:], dtype = fackla.lång, enhet = tnsr.device) result.scatter_ (1, tnsr.unsqueeze (1), 1) returresultat Jämförelseresultat Jag var nyfiken och bestämde mig för att jämföra de tre metoderna. Jag fann att det inte verkar finnas en signifikant relativ skillnad mellan de föreslagna metoderna med avseende på batchstorlek, bredd eller höjd. Primärt var antalet klasser den särskiljande faktorn. Naturligtvis kan det som med alla riktmärken variera. Riktmärkena samlades in med hjälp av slumpmässiga index och med användning av satsstorlek, höjd, bredd = 100. Varje experiment upprepades 20 gånger med genomsnittet som rapporterades. Experimentet num_classes = 100 körs en gång före profilering för uppvärmning. CPU-resultaten visar att den ursprungliga metoden förmodligen var bäst för num_classes mindre än cirka 30, medan för GPU verkar scatter_-metoden vara snabbast. Tester utförda på Ubuntu 18.04, NVIDIA 2060 Super, i7-9700K Koden som används för benchmarking ges nedan: importera fackla från tqdm importera tqdm importtid importera matplotlib.pyplot som plt def batch_tensor_to_onehot_slavka (tnsr, klasser): tnsr = tnsr.unsqueeze (1) res = [] för cls inom intervallet (klasser): res.append ((tnsr == cls) .long ()) return torch.cat (res, dim = 1) def batch_tensor_to_onehot_alpha (tnsr, klasser): resultat = fackla.nn.functional.one_hot (tnsr, num_classes = klasser) returresultat. aktivera (0, 3, 1, 2) def batch_tensor_to_onehot_jodag (tnsr, klasser): resultat = fackla.zeros (tnsr.shape [0], klasser, * tnsr.shape [1:], dtype = fackla.lång, enhet = tnsr.device) result.scatter_ (1, tnsr.unsqueeze (1), 1) returresultat def huvud (): num_classes = [2, 10, 25, 50, 100] höjd = 100 bredd = 100 bs = [100] * 20 för d i ['cpu', 'cuda']: times_slavka = [] times_alpha = [] times_jodag = [] warmup = True för c i tqdm ([num_classes [-1]] + num_classes, ncols = 0): tslavka = 0 talpha = 0 tjodag = 0 för b i bs: tnsr = fackla.randint (c, (b, höjd, bredd)). till (enhet = d) t0 = tid.tid () y = batch_tensor_to_onehot_slavka (tnsr, c) torch.cuda.synchronize () tslavka + = time.time () - t0 om inte uppvärmning: times_slavka.append (tslavka / len (bs)) för b i bs: tnsr = fackla.randint (c, (b, höjd, bredd)). till (enhet = d) t0 = tid.tid () y = batch_tensor_to_onehot_alpha (tnsr, c) torch.cuda.synchronize () talpha + = time.time () - t0 om inte uppvärmning: times_alpha.append (talpha / len (bs)) för b i bs: tnsr = fackla.randint (c, (b, höjd, bredd)). till (enhet = d) t0 = tid.tid () y = batch_tensor_to_onehot_jodag (tnsr, c) torch.cuda.synchronize () tjodag + = time.time () - t0 om inte uppvärmning: times_jodag.append (tjodag / len (bs)) uppvärmning = Falskt fig = plt. figur () ax = fig. delar () ax.plot (num_classes, times_slavka, label = 'Slavka-cat') ax.plot (num_classes, times_alpha, label = 'Alpha-one_hot') ax.plot (num_classes, times_jodag, label = 'jodag-scatter_') ax.set_xlabel ('num_classes') ax.set_ylabel ('tid (er)') ax.set_title (f '{d} riktmärke') ax.legend () plt.savefig (f '{d} .png') plt.show () om __name__ == "__main__": huvud () | Ditt svar StackExchange.ifUsing ("editor", function () { StackExchange.using ("externalEditor", funktion () { StackExchange.using ("snippets", function () { StackExchange.snippets.init (); }); }); }, "kodutdrag"); StackExchange.ready (funktion () { var channelOptions = { taggar: "" .split (""), id: "1" }; initTagRenderer ("". split (""), "" .split (""), channelOptions); StackExchange.using ("externalEditor", funktion () { // Måste aktivera redaktören efter utdrag, om utdrag är aktiverade if (StackExchange.settings.snippets.snippetsEnabled) { StackExchange.using ("snippets", function () { createEditor (); }); } annat { createEditor (); } }); funktion createEditor () { StackExchange.prepareEditor ({ useStacksEditor: falsk, heartbeatType: 'answer', autoActivateHeartbeat: false, convertImagesToLinks: true, noModals: sant, showLowRepImageUploadWarning: true, reputToPostImages: 10, bindNavPrevention: true, postfix: "", imageUploader: { brandingHtml: "Drivs av \ u003ca href = \" https: //imgur.com/ \ "\ u003e \ u003csvg class = \" svg-icon \ "width = \" 50 \ "height = \" 18 \ "viewBox = \ "0 0 50 18 \" fill = \ "none \" xmlns = \ "http: //www.w3.org/2000/svg \" \ u003e \ u003cpath d = \ "M46.1709 9.17788C46.1709 8.26454 46.2665 7.94324 47.1084 7.58816C47.4091 7.46349 47.7169 7.36433 48.0099 7.26993C48.9099 6.97997 49.672 6.73443 49.672 5.93063C49.672 5.22043 48.9832 4.61182 48.1414 4.61182C47.4335 4.61182 46.72543 4.916.56 43.1481 6.59048V11.9512C43.1481 13.2535 43.6264 13.8962 44.6595 13.8962C45.6924 13.8962 46.1709 13.253546.1709 11.9512V9.17788Z \ "/ \ u003e \ u003cpath d = \" M32.492 10.1419C32.492 12.6954 34.1182 14.0484 37.0451 14.0484C39.9723 14.0484 41.5985 12.6954 41.5985 10.1419V6.5904921.466.539 5.261 38.5948 5.28821 38.5948 6.59049V9.60062C38.5948 10.8521 38.2696 11.5455 37.0451 11.5455C35.8209 11.5455 35.4954 10.8521 35.4954 9.60062V6.59049C35.4954 5.28821 35.0173 4.66232 34.0034.4702366 fill-rule = \ "evenodd \" clip-rule = \ "evenodd \" d = \ "M25.6622 17.6335C27.8049 17.6335 29.3739 16.9402 30.2537 15.6379C30.8468 14.7755 30.9615 13.5579 30.9615 11.9512V6.59049C30.9633 5.28821 30.4623 29.4502 4.66231C28.9913 4.66231 28.4555 4.94978 28.1109 5.50789C27.499 4.86533 26.7335 4.56087 25.7005 4.56087C23.1369 4.56087 21.0134 6.57349 21.0134 9.27932C21.0134 11.9852 23.003 13.913 25.3756.913 C28. 1256 12.8854 28,1301 12,9342 28,1301 12.983C28.1301 14,4373 27,2502 15,2321 25,777 15.2321C24.8349 15,2321 24,1352 14,9821 23,5661 14.7787C23.176 14,6393 22,8472 14,5218 22,5437 14.5218C21.7977 14,5218 21,2429 15,0123 21,2429 15.6887C21.2429 16,7375 22,9072 17,6335 25,6622 17.6335ZM24.1317 9,27932 C24.1317 7.94324 24.9928 7.09766 26.1024 7.09766C27.2119 7.09766 28.0918 7.94324 28.0918 9.27932C28.0918 10.6321 27.2311 11.5116 26.1024 11.5116C24.9737 11.5116 24.1317 10.6491 24.1317 9.27932Z \ "/ \ u003e \ u003e \ u003e \ 8045 13.2535 17.2637 13.8962 18.2965 13.8962C19.3298 13.8962 19.8079 13.2535 19.8079 11.9512V8.12928C19.8079 5.82936 18.4879 4.62866 16.4027 4.62866C15.1594 4.62866 14.279 4.98375 13.3609 5.880134125.56 58314 4.9328 7.10506 4.66232 6.51203 4.66232C5.47873 4.66232 5.00066 5.28821 5.00066 6.59049V11.9512C5.00066 13.2535 5.47873 13.8962 6.51203 13.8962C7.54479 13.8962 8.0232 13 .2535 8.0232 11.9512V8.90741C8.0232 7.58817 8.44431 6.91179 9.53458 6.91179C10.5104 6.91179 10.893 7.58817 10.893 8.94108V11.9512.9.10.993 13.2535 11.3711 13.8962 12.4044 13.8962C13.4315.996 13.2535 13.3511 11.8711 13.8962 12.4044 13.8962C13.4315.996 C16.4027 6.91179 16.8045 7.58817 16.8045 8.94108V11.9512Z \ "/ \ u003e \ u003cpath d = \" M3.31675 6.59049C3.31675 5.28821 2.83866 4.66232 1.82471 4.66232C0.791758 4.66232 0.313354 5.28821.235351.31335 1.82471 13.8962C2.85798 13.8962 3.31675 13.2535 3.31675 11.9512V6.59049Z \ "/ \ u003e \ u003cpath d = \" M1.87209 0.400291C0.843612 0.400291 0 1.1159 0 1.98861C0 2.87869 0.822846 3.57676 1.87209 3.5767.9 C3.7234 1.1159 2.90056 0.400291 1.87209 0.400291Z \ "fill = \" # 1BB76E \ "/ \ u003e \ u003c / svg \ u003e \ u003c / a \ u003e", contentPolicyHtml: "Användarbidrag licensierade under \ u003ca href = \" https: //stackoverflow.com/help/licensing \ "\ u003ecc by-sa \ u003c / a \ u003e \ u003ca href = \" https://stackoverflow.com / legal / content-policy \ "\ u003e (content policy) \ u003c / a \ u003e", allowUrls: sant }, onDemand: sant, discardSelector: ".discard-answer" , direktShowMarkdownHelp: true, enableTables: true, enableSnippets: true }); } }); Tack för att du har bidragit med ett svar till Stack Overflow! Var noga med att svara på frågan. Ge detaljer och dela din forskning! Men undvik ... Be om hjälp, förtydligande eller svara på andra svar. Att göra uttalanden baserade på åsikt; säkerhetskopiera dem med referenser eller personlig erfarenhet. För att lära dig mer, se våra tips för att skriva bra svar. Utkast sparat Utkast kasseras Registrera dig eller logga in StackExchange.ready (funktion () { StackExchange.helpers.onClickDraftSave ('# login-link'); }); Registrera dig med Google Registrera dig med Facebook Registrera dig med e-post och lösenord Skicka in Lägg upp som gäst namn E-post Obligatoriskt men aldrig visat StackExchange.ready ( funktion () { StackExchange.openid.initPostLogin ('. New-post-login', 'https% 3a% 2f% 2fstackoverflow.com% 2fquestions% 2f62245173% 2fpytorch-transform-tensor-to-one-hot% 23new-answer', 'question_page' ); } ); Lägg upp som gäst namn E-post Obligatoriskt men aldrig visat Lägg upp ditt svar Kassera Genom att klicka på “Lägg upp ditt svar” godkänner du våra användarvillkor, sekretesspolicy och cookiepolicy Inte svaret du letar efter? Bläddra bland andra frågor taggade python pytorch tensor en-hot-kodning eller ställ din egen fråga.